【機械学習】サポートベクトルマシン(前編)| SVMの理論、ハードマージンとソフトマージン

Поделиться
HTML-код
  • Опубликовано: 6 сен 2024
  • ← 第6回 ロジスティック回帰(後編)
    • 【機械学習】ロジスティック回帰(後編)| ...
    →第8回 サポートベクトルマシン(中編)
    • 【機械学習】サポートベクトルマシン(中編)|...
    ご視聴ありがとうございます。
    私は普段、AIエンジニア/データサイエンティストとして活動しています。このチャンネルでは、たくさんの人にAIの可能性を知っていただくことや、日々の学習の成果を視聴者の皆様とシェアしていくことを目標にしています。
    この動画シリーズでは「機械学習をはじめよう」と題して、機械学習の基礎的な理論や実装の方法を解説していきます。
    動画の内容を参考にして、ぜひ皆様も機械学習に挑戦してみてください!!
    ーこの分野についてもっと詳しく学ぶならー
    『パターン認識と機械学習 上』
    amzn.to/2vSj7Ti
    『パターン認識と機械学習 下』
    amzn.to/2OI8cmm
    『統計的学習の基礎 ―データマイニング・推論・予測―』
    amzn.to/2MEXwHX
    『Pythonではじめる機械学習 ―scikit-learnで学ぶ特徴量エンジニアリングと機械学習の基礎』
    amzn.to/2nKQJ19
    『Machine Learning: A Probabilistic Perspective (Adaptive Computation and Machine Learning)』
    amzn.to/2Mx9nYf

Комментарии • 18

  • @user-qi3fv9wk8c
    @user-qi3fv9wk8c 2 года назад +1

    統計学準1級学習のために視聴しました。とても分かりやすかったです!

  • @Lr6cNGsTnmfx
    @Lr6cNGsTnmfx 4 года назад +3

    超分かりやすかったです。全俺が泣いた。

  • @user-je8sq3tm2n
    @user-je8sq3tm2n 5 лет назад +3

    機械学習初心者の文系大学一年生にはすごくわかりやすくありがたい動画でした。

  • @akiyoshihagiwara5551
    @akiyoshihagiwara5551 2 года назад

    非常に判りやすい。感動した。

  • @user-qv7wq6ti1j
    @user-qv7wq6ti1j 10 дней назад

    神すぎますって!、

  • @nowinhouse9309
    @nowinhouse9309 5 лет назад +2

    すごいわかりやすい動画!!!

  • @GL-Kageyama2ndChannel
    @GL-Kageyama2ndChannel 4 года назад

    詳細欄から、「Machine Learning: A Probabilistic Perspective」の存在を初めて知りました。
    とても凄そうな本です。

  • @user-xt8vf3gj4b
    @user-xt8vf3gj4b 5 лет назад +4

    神動画やん

  • @Go-dn1bi
    @Go-dn1bi 3 года назад +1

    マージンは最大化したいけどξは最小化したいから、
    一つの式でまとめるには両方ともを最大化か最小化に統一しなくちゃいけないので、
    今回はマージンの項を逆数にすることで、最小化問題に統一したという解釈で合ってますかね?

  • @ritchieblackmore1022
    @ritchieblackmore1022 5 лет назад

    20:48 「スラッグ」ではなく、「スラック=slack(ゆるい)」でしょうか?

  • @hori891
    @hori891 3 года назад +1

    16:56 この式変形がイマイチわからないです。
    中辺=最右辺となるのは、
    上の条件が成立するときなので分かりますが、
    そもそも中辺がなにを意味しているのかわかりません汗

    • @lucyendu9548
      @lucyendu9548 3 года назад +3

      私もそこ悩みました。おそらく、左辺がM~となっていますが、これは実はMそのものだと思います。
      んで、元々Mの定義式はwとbで記述されていますが、これをw~とb~の定義式を用いてwとbを消去してw~とb~で表現し直したものが、中辺の式だと思います。んで、式変形で考えるとこうですが、式の意味を考えてみると、元のMの定義式は「(w,b)で表した分離超平面」とサポートベクトルの距離を定式化したものですが、「同じ分離超平面を(w~,b~)で表現した場合の分離超平面」とサポートベクトルの距離は、この中辺の式になると思います。(w,b)で表される超平面と、(w~,b~)で表される超平面は全く同じ超平面を表しているって理解がポイントだと思います。(w~,b~)は(w,b)をいわば"正規化"したものと理解するのが良いと思いました。

    • @kois9793
      @kois9793 2 года назад +3

      @@lucyendu9548 少し前のコメントですが、自分の考察を笑
      wチルダ = w / (M * |w|)
      なので、
      |wチルダ| = |w| / (M * |w|) = 1 / M とした つまり絶対値をとっただけなのでは
      つまりMの最大化はつまり、|wチルダ| の最小化であることがわかる。

  • @shizuokashimoda9047
    @shizuokashimoda9047 3 года назад +1

    カーソルが小さい…

  • @yuu1158
    @yuu1158 5 лет назад +3

    "サポートベクター"といっている方が世の中では多い気がしますが...

  • @rock1803
    @rock1803 5 лет назад

    いつもとても参考になる動画ありがとうございます。マウスポインタが指してる場所がわかりにくいだす。可能であれば、もう少し大きいポインタで指していただけるとありがたいです。

    • @ableprogramming892
      @ableprogramming892  5 лет назад +2

      ご視聴ありがとうございます。
      ご指摘の点と合わせ、フレーム数が少なく動画がカクついているため、かなり見づらくなってしまいました。
      今後の動画ではこれらの点を改善していきます。

  • @user-ob8yp1wn6o
    @user-ob8yp1wn6o 3 года назад

    広告入れすぎな